The number of international benchmarking competitions is steadily increasing in various fields of machine learning (ML) research and practice. So far, however, little is known about the common practice as well as bottlenecks faced by the community in tackling the research questions posed. To shed light on the status quo of algorithm development in the specific field of biomedical imaging analysis, we designed an international survey that was issued to all participants of challenges conducted in conjunction with the IEEE ISBI 2021 and MICCAI 2021 conferences (80 competitions in total). The survey covered participants' expertise and working environments, their chosen strategies, as well as algorithm characteristics. A median of 72% challenge participants took part in the survey. According to our results, knowledge exchange was the primary incentive (70%) for participation, while the reception of prize money played only a minor role (16%). While a median of 80 working hours was spent on method development, a large portion of participants stated that they did not have enough time for method development (32%). 25% perceived the infrastructure to be a bottleneck. Overall, 94% of all solutions were deep learning-based. Of these, 84% were based on standard architectures. 43% of the respondents reported that the data samples (e.g., images) were too large to be processed at once. This was most commonly addressed by patch-based training (69%), downsampling (37%), and solving 3D analysis tasks as a series of 2D tasks. K-fold cross-validation on the training set was performed by only 37% of the participants and only 50% of the participants performed ensembling based on multiple identical models (61%) or heterogeneous models (39%). 48% of the respondents applied postprocessing steps.
translated by 谷歌翻译
我们介绍RealityTalk,该系统通过语音驱动的互动虚拟元素来增强实时实时演示。增强演示文稿利用嵌入式视觉效果和动画来吸引和表现力。但是,现有的实时演示工具通常缺乏互动性和即兴创作,同时在视频编辑工具中产生这种效果需要大量的时间和专业知识。RealityTalk使用户能够通过实时语音驱动的交互创建实时增强演示文稿。用户可以通过实时语音和支持方式进行交互提示,移动和操纵图形元素。根据我们对177个现有视频编辑的增强演示文稿的分析,我们提出了一套新颖的互动技术,然后将它们纳入真人秀。我们从主持人的角度评估我们的工具,以证明系统的有效性。
translated by 谷歌翻译
Covid-19-Pandemic继续在世界上迅速传播,并在全球人类健康和经济中造成巨大危机。它的早期检测和诊断对于控制进一步的扩散至关重要。已经提出了许多基于学习的深度方法,以帮助临床医生根据计算机断层扫描成像进行自动COVID-19诊断。但是,仍然存在挑战,包括现有数据集中的数据多样性,以及由于深度学习模型的准确性和敏感性不足而导致的检测不满意。为了增强数据多样性,我们设计了增量级别的增强技术,并将其应用于最大的开放式基准测试数据集Covidx CT-2A。同时,在本研究中提出了从对比度学习中得出的相似性正则化(SR),以使CNN能够学习更多参数有效的表示,从而提高了CNN的准确性和敏感性。七个常用CNN的结果表明,通过应用设计的增强和SR技术,可以稳定地提高CNN性能。特别是,具有SR的Densenet121在三个试验中的三类分类中达到99.44%的平均测试准确性,包括正常,非covid-19-19-19肺炎和Covid-19-19。 COVID-19肺炎类别的精确度,敏感性和特异性分别为98.40%,99.59%和99.50%。这些统计数据表明,我们的方法已经超过了COVIDX CT-2A数据集上现有的最新方法。
translated by 谷歌翻译
无监督的时间序列异常检测对各种域中目标系统的潜在故障有助于。当前的最新时间序列异常检测器主要集中于设计高级神经网络结构和新的重建/预测学习目标,以尽可能准确地学习数据正常(正常模式和行为)。但是,这些单级学习方法可以被训练数据中未知异常(即异常污染)所欺骗。此外,他们的正常学习也缺乏对感兴趣异常的知识。因此,他们经常学习一个有偏见的,不准确的正态边界。本文提出了一种新型的单级学习方法,称为校准的一级分类,以解决此问题。我们的单级分类器以两种方式进行校准:(1)通过适应性地惩罚不确定的预测,这有助于消除异常污染的影响,同时强调单级模型对一级模型有信心的预测,并通过区分正常情况来确定(2)来自本机异常示例的样本,这些样本是根据原始数据基于原始数据模拟真实时间序列异常行为的。这两个校准导致耐污染的,异常的单级学习,从而产生了显着改善的正态性建模。对六个现实世界数据集进行的广泛实验表明,我们的模型大大优于12个最先进的竞争对手,并获得了6%-31%的F1分数提高。源代码可在\ url {https://github.com/xuhongzuo/couta}中获得。
translated by 谷歌翻译
心电图(ECG)是心脏病的广泛使用的非侵入性诊断工具。许多研究设计了ECG分析模型(例如分类器)来协助诊断。作为一项上游任务,研究建立了生成模型来综合ECG数据,这对提供培训样本,隐私保护和减少注释是有益的。但是,以前的ECG生成方法通常既不合成多视图数据,也不涉及心脏病状况。在本文中,我们提出了一种新型的,用于多视图ECG合成的新型疾病的生成对抗网络,称为ME-GAN,该网络获得了以心脏病为条件的全磁心电图表示,并将其投射到多个标准视图上,以产生ECG信号。由于心脏病的心电图表现通常位于特定波形中,因此我们提出了一种新的“混合标准化”,以精确地注入合适的位置。此外,我们提出了一个视图歧视者,将无序的心电图视图恢复为预定的顺序,监督发电机以获取代表正确视图特征的ECG。此外,提出了一个新的度量RFID,以评估合成的ECG信号的质量。全面的实验验证了我们的ME-GAN在具有可信赖的病态表现的多视图ECG信号合成上表现良好。
translated by 谷歌翻译
了解添加剂制造(AM)过程的热行为对于增强质量控制和实现定制过程设计至关重要。大多数纯粹基于物理的计算模型都有密集的计算成本,因此不适合在线控制和迭代设计应用程序。数据驱动的模型利用最新开发的计算工具可以作为更有效的替代品,但通常会在大量仿真数据上进行培训,并且通常无法有效使用小但高质量的实验数据。在这项工作中,我们使用物理知识的神经网络开发了AM过程的基于混合物理学的热建模方法。具体而言,通过红外摄像机测量的部分观察到的温度数据与物理定律结合在一起,以预测全场温度病史并发现未知的材料和过程参数。在数值和实验示例中,添加辅助训练数据并使用转移学习技术在训练效率和预测准确性方面的有效性,以及具有部分观察到的数据的未知参数的能力。结果表明,混合热模型可以有效地识别未知参数并准确捕获全田温度,因此它具有在AM的迭代过程设计和实时过程控制中的潜力。
translated by 谷歌翻译
计算机辅助医学图像分割已广泛应用于诊断和治疗,以获得靶器官和组织的形状和体积的临床有用信息。在过去的几年中,基于卷积神经网络(CNN)的方法(例如,U-Net)占主导地位,但仍遭受了不足的远程信息捕获。因此,最近的工作提出了用于医学图像分割任务的计算机视觉变压器变体,并获得了有希望的表现。这种变压器通过计算配对贴片关系来模拟远程依赖性。然而,它们促进了禁止的计算成本,尤其是在3D医学图像(例如,CT和MRI)上。在本文中,我们提出了一种称为扩张变压器的新方法,该方法在本地和全球范围内交替捕获的配对贴片关系进行自我关注。灵感来自扩张卷积核,我们以扩张的方式进行全球自我关注,扩大接收领域而不增加所涉及的斑块,从而降低计算成本。基于这种扩展变压器的设计,我们构造了一个用于3D医学图像分割的U形编码器解码器分层体系结构。 Synapse和ACDC数据集的实验表明,我们的D-Ager Model从头开始培训,以低计算成本从划痕训练,优于各种竞争力的CNN或基于变压器的分段模型,而不耗时的每训练过程。
translated by 谷歌翻译
表格数据在现实世界中普遍存在。虽然许多常用的神经组件(例如,卷积)和可扩展的神经网络(例如,Reset)已经由机器学习界开发,但是很少有人对表格数据有效,并且对于表格数据结构,很少有设计。在本文中,我们为表格数据提出了一种新颖且灵活的神经组件,称为抽象层(ABStlay),其学会明确地统一相关输入功能并为语义抽象生成更高级别的功能。此外,我们设计了一种结构重新参数化方法来压缩ABStlay,从而通过参考阶段的清晰边际降低计算复杂度。使用ABStlays建立了一个特殊的基本块,我们通过堆叠这些块来构建用于表格数据分类和回归的深度抽象网络(DANET)系列。在DANET中,引入特殊的快捷路径以从原始表格特征获取信息,协助不同级别的功能交互。七个现实世界的表格数据集的综合实验表明,我们的ABStlay和Danets对表格数据分类和回归有效,并且计算复杂性优于竞争方法。此外,我们评估DANET的性能收益,因为它深入了解我们的方法的可扩展性。我们的代码可在https://github.com/whatashot/danet上获得。
translated by 谷歌翻译
在本文中,我们研究了使用深层学习技术预测外汇货币对未来波动性的问题。我们逐步展示如何通过对白天波动率的经验模式的指导来构建深度学习网络。数值结果表明,与传统的基线(即自回归和GARCH模型)相比,多尺寸长的短期内存(LSTM)模型与多货币对的输入相比一致地实现了最先进的准确性,即自动增加和加入模型其他深度学习模式。
translated by 谷歌翻译
监督表示学习的目标是为预测构建有效的数据表示。在高维复杂数据的理想非参数表示的所有特征中,充分性,低维度和脱离是最重要的。我们提出了一种深层缩小方法,以使用这些特征来学习表示表示。提出的方法是对足够降低方法的非参数概括。我们制定理想的表示学习任务是找到非参数表示,该任务最小化了表征条件独立性并促进人口层面的分离的目标函数。然后,我们使用深层神经网络在非参数上估计样品级别的目标表示。我们表明,估计的深度非参数表示是一致的,因为它的过剩风险会收敛到零。我们使用模拟和真实基准数据的广泛数值实验表明,在分类和回归的背景下,所提出的方法比现有的几种降低方法和标准深度学习模型具有更好的性能。
translated by 谷歌翻译